Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 3 partes – A (capítulo 1), B (capítulo 2) e C (capítulo 3). Por sua vez, cada uma destas partes será igualmente publicada repartidamente. A parte A – correspondente ao Capítulo 1 – é publicada em 4 partes, hoje a primeira.
Seleção e tradução de Júlio Marques Mota
10 min de leitura
Texto 41 A – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 1 – Os Falsos Deuses da IA (1/4)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
em 2 de Junho de 2025 (original aqui)
Índice
1.1 A Mitologia da IAG : O Argumento para acabar com todos os argumentos (original aqui)
1.2: Demasiado Grandes para falir -infraestruturas e intensificação do capital (original aqui)
1.3 Corrida Armamentista da IA 2.0: Da Desregulamentação à Política Industrial (original aqui)
1.4 Reformular a Regulação como uma barreira à Inovação (original aqui)
—-
1.1 A Mitologia da IAG: O Argumento para acabar com todos os argumentos
O “senso comum” em torno da inteligência artificial tornou-se poderoso nos últimos dois anos, impregnando a tecnologia com uma sensação de agência e impulso que fazem a trajetória atual da IA parecer inevitável e certamente essencial para a prosperidade económica e o domínio global dos EUA. Neste capítulo, desmontamos as narrativas que sustentam essa “inevitabilidade”, explicando porque é que é particularmente desafiador — mas ainda bem necessário — contestar o rumo atual da IA, especialmente neste momento da história global.
A promessa de que a inteligência artificial geral, ou “IAG”, está logo ali, no horizonte, está a influenciar muitos dos debates sobre como a IA está a afetar a sociedade. Empresas de IA que investem no desenvolvimento de modelos extremamente grandes e em escala afirmam constantemente que a IAG está a meses ou semanas de distância [1], pronta para ter efeitos transformadores no conjunto da sociedade — tornando isso central na sua argumentação para atrair investimentos [2]. O discurso em torno da IAG adiciona uma aparência de inevitabilidade às conversas sobre IA; se uma empresa não a alcançar, outra o fará. Isso também dá aos governos uma desculpa para ficarem inativos, mesmo que as versões atuais da IA tenham efeitos profundos nos seus cidadãos, como se a corrida para criar a IAG tivesse a sua própria dinâmica.
Se algo mudou, sob os governos Biden e Trump, o governo dos EUA posicionou-se, na verdade, como o principal facilitador: pronto para usar todas as ferramentas à sua disposição — incluindo investimentos, autoridade executiva e inação regulatória — para impulsionar as empresas americanas de IA a estarem à frente dos seus concorrentes nessa corrida pela IAG (Inteligência Artificial Geral) [3]. Vale a pena referir que aqueles que mais falam sobre os seus temores quanto aos supostos “riscos existenciais” da IAG fizeram tudo para sustentar e acelerar o desenvolvimento da indústria como qualquer outro fator ou pessoa [4]. A afirmação da OpenAI de que “é difícil imaginar o quanto uma IA de nível humano poderia beneficiar a sociedade, mas também é difícil imaginar o quanto ela poderia prejudicá-la se construída ou usada incorretamente” [5] deixa claro que tanto os entusiastas da IA como os alarmistas de riscos existenciais (“x-risk”) desempenham um papel na promoção dessa visão de uma IA com capacidades supremas.
O que é a IAG? A História da Inteligência Artificial Geral
Como Brian Merchant relata no seu artigo “AI Generated Business” [ver aqui, aqui e aqui) o termo IAG, cunhado em 1997, capturou a noção de uma “inteligência geral” como um contraponto à corrente dominante da pesquisa em IA na época, os “sistemas especialistas”, que operavam com lógica baseada em regras projetadas como uma representação formalizada de como os humanos pensam [6]. Enquanto os sistemas especialistas só funcionavam em aplicações muito restritas, a IAG operaria de forma ampla em diversos domínios. No entanto, os desenvolvedores da área em grande parte abandonaram essas formas de pensar sobre a IA, optando em vez disso por técnicas de aprendizagem profunda [deep learning] que se mostraram mais eficazes e que hoje formam a base dos sistemas automatizados de tomada de decisão, entre outros.
O interesse pela IAG (Inteligência Artificial Geral) foi reavivado na década de 2010, quando empresas como a OpenAI adotaram o termo, primeiro como uma abreviação para uma forma de inteligência artificial destinada a rivalizar e, eventualmente, a ultrapassar a inteligência humana, e depois como um conceito “central nos seus esforços de marketing” [7]. As imagens evocadas pelas empresas de IA são reveladoras: desde a linguagem sublime usada por Dario Amodei, fundador da Anthropic, que descreve “génios num centro de dados ” capazes de saltos científicos revolucionários, como “projetar novas armas ou curar doenças” [8], até à lógica comercial por detrás do acordo da OpenAI com a Microsoft, que define IAG como o momento em que a IA pode gerar 100 mil milhões de dólares em lucros [9].
Nesse sentido, o ChatGPT abriu caminho para que a IAG pudesse funcionar; os atuais LLMs [modelos de linguagem de grande escala] no mercado de consumo são exemplos de marketing brilhante — provando, como argumentam as empresas de IA, que grandes avanços inesperados na IA não só eram possíveis, mas estavam “ao virar da esquina” [10]. Desde então, a IAG tem sido posicionada como o próximo grande passo na evolução dos LLMs, embora com poucas evidências, além de especulações, sobre quão grande ou amplo será esse salto [11]. No entanto, embora essa crença pareça estar a espalhar-se entre o público em geral, ela é amplamente contestada por muitos na comunidade de pesquisa em IA. Por exemplo, numa pesquisa recente com membros da Association for the Advancement of AI, 84% dos entrevistados disseram que as arquiteturas de redes neurais em que os grandes modelos se baseiam são “insuficientes para alcançar a IAG” [12].
Numa crítica mais fundamental às alegações sobre a IAG, estudiosos como Emily Bender [13] e Henry Farrell [14], entre outros, contestam a base dessas afirmações, argumentando que os grandes modelos “nunca serão inteligentes como os humanos, ou mesmo como os zangões” [15], porque a IA, na verdade, não pode criar. Ela só consegue refletir, comprimir e até remisturar conteúdos que os humanos já criaram, ajudando as pessoas a coordenarem-se ou a resolver problemas [16].
Embora os modelos atuais de IA tornem a promessa da IAG (Inteligência Artificial Geral) mais tangível para formuladores de políticas e a população em geral, a IAG é convenientemente distanciada das limitações fundamentais e persistentes dos LLMs (Modelos de Linguagem de Grande Escala), com o argumento de que, por definição, a IAG será um paradigma totalmente novo que supera essas preocupações materiais [17]. A mitologia em torno da IAG mascara a superficialidade dos modelos de IA atuais, fornecendo substância e imaginação de que as inovações estão logo ali, ao virar da esquina.
Se a IAG estivesse aqui, como é que iriamos saber ?
Apesar das declarações públicas ousadas da indústria de tecnologia de que a IAG (Inteligência Artificial Geral) estaria “a apenas dois anos de distância” [18], a comunidade de investigação ainda não chegou a um consenso [19]. Uma pesquisa recente da Associação para o Avanço da Inteligência Artificial (AAAI), com quase quinhentos investigadores na área, revelou que 76% dos entrevistados afirmam que é improvável ou muito improvável que o simples aumento da escala das abordagens atuais leve ao desenvolvimento da IAG [20].
Então, como saberemos quando é que a IAG irá realmente chegar? As métricas atualmente disponíveis são, em grande parte, estreitas, vagas e autorreferenciais [21] —e alguns investigadores argumentam que a obsessão com a IAG está “a dinamizar uma má ciência” [22]. Em vez de avanços científicos concretos, os laboratórios da indústria estão a basear as suas afirmações de proximidade com a IAG em testes com nomes grandiosos, como “O Último Exame da Humanidade” [23] e “Matemática de Fronteira” [24] que medem apenas uma capacidade muito limitada de responder a perguntas claras e de resposta fechada [25] —a serem substitutos fracos para as promessas feitas por essas empresas sobre o potencial dessa tecnologia, como inventar curas para o cancro ou resolver a crise climática.
O diretor científico da empresa de IA Hugging Face, Thomas Wolf, argumenta que atualmente estamos a testar os sistemas quanto à sua capacidade de serem alunos obedientes, em vez da sua maestria em abordagens contrafactuais ousadas ou da capacidade de desafiar os seus próprios dados de treino — características que poderiam ter mais potencial para resolver problemas complexos e de difícil solução [26]. Em 2025, um grupo de investigadores de IA de diversas instituições académicas e da indústria apontou um desafio endémico no campo atual das avaliações em IA: uma preocupação excessiva com “afirmações grosseiras de inteligência geral”, em vez de “medidas relevantes de progresso e desempenho no mundo real” [27].
Em suma, há uma falta generalizada e endémica de clareza tanto sobre a definição como sobre as escalas de tempo da conversa sobre IAG, o que torna difícil contestar ou avaliar os seus méritos. A questão mais urgente, no entanto, é: a quem e para que é que serve esse foco desproporcional na IAG? E como é que isso moldará a trajetória atual da IA?
Quem é que beneficia com o discurso sobre IAG ?
A IAG tornou-se o argumento que encerra todos os outros argumentos, um marco tecnológico que é ao mesmo tempo tão abstrato e absoluto que ganha prioridade automática sobre outros meios e, de facto, sobre todos os outros fins. É rotineiramente apresentada como uma tecnologia tão poderosa que será capaz de superar alguns dos desafios mais intratáveis do nosso tempo — e que tanto o investimento no setor como os custos colaterais são justificados pelas soluções futuras que ela nos oferecerá. Por exemplo, Eric Schmidt recentemente minimizou os custos climáticos impostos pela IA ao afirmar que os seres humanos não estão preparados para se coordenar a fim de resolver as mudanças climáticas. Assim, segundo esse raciocínio, precisamos superalimentar os centros de dados — porque, a longo prazo, a IAG é nossa melhor chance de resolver esse problema [28].
Isto reflete não apenas o solucionismo abstrato da IA no seu auge; também serve para achatar e disfarçar o próprio problema das mudanças climáticas, como se ele estivesse apenas a aguardar a sua bala de prata técnica. Com isso, os desafios da vontade política, da cooperação internacional e do apoio material para que as pessoas reconstruam as suas casas ou acolham refugiados climáticos — tudo o que realmente será necessário para “resolver” as mudanças climáticas de forma significativa — tornam-se invisíveis [29].
Apresentar a IA como uma solução técnica rápida para problemas antigos e estruturalmente difíceis tem sido uma temática constante ao longo da última década (como exploramos no nosso capítulo sobre Consultando os Registos), mas variantes anteriores do tecno-solucionismo ao menos precisavam de demonstrar como é que a tecnologia resolveria o problema em questão. Com a IAG, porém, não está claro como é que essa transformação acontecerá, além da mera afirmação de que o estado atual das coisas será reformulado. Os debates sobre o DOGE [Department of Government Efficiency ] transformar o governo utilizando a IA têm esse tom: na sua entrevista com Ben Buchanan, Ezra Klein fala sobre o sentimento geral de que, com a IA superinteligente potencialmente a surgir em breve, o governo inevitavelmente precisará de ser desmantelado e reconstruído para a era da IAG [30]. É a mesma lógica que dita que, se a IAG realmente for impulsionar descobertas científicas do tipo que Amodei promete, então talvez nem haja mais necessidade de financiamento federal para a ciência.
Função de Dinamização de Mercado da IAG
Afirmar que a IAG (Inteligência Artificial Geral) está sempre no horizonte também cumpre uma função crucial de preservação de mercado para a IA em larga escala: manter o ritmo dos investimentos em recursos e infraestrutura computacional de que os principais atores da indústria precisam para sustentar esse paradigma. Como argumentámos, esse atual modelo de IA em grande escala foi impulsionado por uma regra simples: ampliar dados e capacidade computacional levaria a avanços de desempenho — uma lógica que consolidou o domínio de um punhado de empresas que já controlavam o acesso a esses insumos, bem como os caminhos até ao mercado [31], e nas mãos das quais o poder seria ainda mais concentrado caso a IAG algum dia viesse a ser alcançada [32]. A busca por esse alvo em constante movimento que é a IAG apenas reforça essa “lição amarga” (como lhe chama o CEO da Anthropic, Amodei) [33].
Há uma lição a ser tirada dos anos 1980, quando, mesmo antes de o termo IAG estar em voga, o governo Reagan promoveu uma iniciativa extremamente ambiciosa (para a época) chamada “Iniciativa de Computação Estratégica”, centrada em impulsionar avanços gerais em “IA” — nos moldes da promessa da IAG [34]. Ela foi motivada pela promessa de novas capacidades militares, pela preocupação com a dominação japonesa na área de IA e pelo potencial de oportunidades no setor privado. Um milhar de milhões de dólares em dinheiro público foi gasto num programa que, hoje, é universalmente reconhecido como um fracasso, por não ter apresentado resultados nem mesmo segundo os seus próprios critérios. As análises sobre os motivos do fracasso variam, mas uma conclusão merece destaque: assim como hoje, esses avanços não dependiam de conquistas revolucionárias na ciência, e sim da ampliação do poder computacional e do volume de dados.
Coincidentemente, os argumentos sobre o risco existencial tem muitas vezes o mesmo efeito: retratar os sistemas de IA como omnipotentes (quando, na realidade, têm falhos e defeitos) e alimentar a ideia de uma corrida armamentista na qual os EUA devem impedir que a China tenha acesso a essas ferramentas supostamente perigosas [35]. Já vimos essas lógicas serem instrumentalizadas em regimes de controle de exportação cada vez mais agressivos. Ao chamar a atenção para os próprios sistemas que supostamente visam contestar, as narrativas sobre o risco existencial, isso cria um efeito Streisand: encoraja-se mais as pessoas a encarar a distopia da IA no presente, impulsionando a sua adoção e fortalecendo os atores da indústria, em vez de limitar o seu poder. Essas lógicas também restringiram o escopo de intervenção política, reforçando um debate centrado nos dois polos — o da aceleração e o da desaceleração — em vez de promover um diálogo amplo sobre o desenvolvimento da IA e as suas implicações sociais.
Em última análise, esses mitos gémeos sobre a IAG posicionam a IA como poderosa e digna de investimento, desviando a atenção das evidências em sentido contrário.
A Deslocar Saberes Enraizados: Quem é que fica a perder com o Discurso sobre a IAG ?
Elevar a IAG acima de outros caminhos para resolver problemas complexos é apenas uma forma superalimentada de tecno-solucionismo [36], mas também significa que aqueles com competência técnica — não apenas os que estão a desenvolver a tecnologia, mas também os que são fluentes no uso desse novo conjunto de ferramentas — passam a ser considerados como os principais especialistas em amplas áreas da sociedade e da ciência, nas quais carecem de contexto e do domínio de experiência específica [37]. Essa tem sido uma disputa recorrente na última década de desenvolvimento da IA: pessoas com experiência vivida e conhecimento setorial específico têm precisado de lutar por um papel determinante nas decisões sobre se, e como, a IA deve ser implantada.
Quer isso signifique permitir que enfermeiros tenham voz sobre como a IA é integrada no cuidado aos pacientes, ou que grupos de pais lutem contra o uso de reconhecimento facial sobre os seus filhos na sala de aula, tem havido um esforço consistente para recentrar quem é considerado especialista nas questões fundamentais sobre a integração da IA. (Notavelmente, isso muitas vezes resultou em abordagens simbólicas que oferecem assentos nominais à mesa para as comunidades impactadas — muito pouco, muito tarde.) A IAG apresenta uma versão ainda mais desafiadora desse problema, dada a sua forma abstrata e absolutista. Por exemplo, narrativas sobre a IAG vir a transformar o mundo do trabalho frequentemente posicionam os trabalhadores de diversos setores como meros sujeitos — ou pior, como danos colaterais — de uma grande transformação, em vez de serem considerados como participantes e, mesmo, como especialistas sobre as formas como essas transições irão acontecer [38].
____________
Notas
- Sam Altman, “Reflections,” January 5, 2025, https://blog.samaltman.com/reflections; Sébastien Bubeck et al., “Sparks of Artificial General Intelligence: Early experiments with GPT-4,” Microsoft, Março de 2023, https://www.microsoft.com/en-us/research/publication/sparks-of-artificial-general-intelligence-early-experiments-with-gpt-4.Back
- Ver Brian Merchant, “AI Generated Business,” AI Now Institute, Dezembro de 2024, https://ainowinstitute.org/general/ai-generated-business; Berber Jin and Deepa Seetharaman, “This Scientist Left OpenAI Last Year. His Startup Is Already Worth $30 Billion,” Wall Street Journal, 4 de março de 2025, https://www.wsj.com/tech/ai/ai-safe-superintelligence-startup-ilya-sutskever-openai-2335259b; e John Koetsier, “OpenAI CEO Sam Altman: ‘We Know How To Build IAG,’” Forbes, 6 de Janeiro de 2025: https://www.forbes.com/sites/johnkoetsier/2025/01/06/openai-ceo-sam-altman-we-know-how-to-build-IAG.Back
- Ver Ezra Klein, “The Government Knows A.G.I. Is Coming,” New York Times, 4 de março de 2025, https://www.nytimes.com/2025/03/04/opinion/ezra-klein-podcast-ben-buchanan.html; e White House, “Removing Barriers to American Leadership in Artificial Intelligence,” 23 de Janeiro de 2025, https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence.Back
- Will Douglas Heaven, “Geoffrey Hinton Tells Us Why He’s Now Scared of the Tech He Helped Build,” MIT Technology Review, 2 de maio de 2023: https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai.Back
- OpenAI, “Introducing OpenAI,” December 11, 2015, https://openai.com/index/introducing-openai.Back
- Merchant, “AI Generated Business.” Back
- Merchant, “AI Generated Business.” Back
- Dario Amodei, “Machines of Loving Grace,” Outubro de 2024, https://darioamodei.com/machines-of-loving-grace. Back
- Maxwell Zeff, “Microsoft and OpenAI Have a Financial Definition of IAG: Report,” TechCrunch, 26 de dezembro de 2024, https://techcrunch.com/2024/12/26/microsoft-and-openai-have-a-financial-definition-of-IAG-report. Back
- Kevin Roose, “Powerful A.I. Is Coming. We’re Not Ready,” New York Times, 14 de março de 2025, https://www.nytimes.com/2025/03/14/technology/why-im-feeling-the-IAG.html. Back
- Ver Anil Ananthaswamy, “How Close Is AI to Human-Level Intelligence?” Nature, 3 de dezembro de 2024: https://www.nature.com/articles/d41586-024-03905-1 destacando as afirmações da OpenAI de que ‘01 funciona de uma maneira mais próxima de como uma pessoa pensa do que os modelos de linguagem anteriores’; Ryan Browne, ‘A IA que pode igualar os humanos em qualquer tarefa estará aqui em cinco a dez anos, diz o CEO do Google DeepMind.’” CNBC, 17 de março de 2025, https://www.cnbc.com/2025/03/17/human-level-ai-will-be-here-in-5-to-10-years-deepmind-ceo-says.html; Koetsier, “OpenAI CEO Sam Altman”; and Steve Ranger, “OpenAI Says It’s Charting a ‘Path to IAG’ with Its Next Frontier AI Model,” ITPro, 30 de maio de 2024, https://www.itpro.com/technology/artificial-intelligence/openai-says-its-charting-a-path-to-IAG-with-its-next-frontier-ai-model. Back
- Association for the Advancement of Artificial Intelligence (AAAI), AAAI 2025 Presidential Panel on the Future of AI Research, março de 2025, https://aaai.org/wp-content/uploads/2025/03/AAAI-2025-PresPanel-Report-Digital-3.7.25.pdf. Back
- Emily M. Bender, “Resisting Dehumanization in the Age of ‘AI’,”Current Directions in Psychological Science 33, no. 2 (2024): https://doi.org/10.1177/09637214231217286. Back
- Henry Farrell et al., “Large AI models Are Cultural and Social Technologies,” Science 387, no. 6739 (2025): 1153–56, https://doi.org/10.1126/science.adt9819. Back
- Henry Farrell, “Should IAG-Preppers Embrace DOGE?” Programmable Mutter (blog), March 18, 2025, https://www.programmablemutter.com/p/should-IAG-preppers-embrace-doge.Back
- Prithvi Iyer, “What Do We Mean When We Say ‘Artificial General Intelligence?’” Tech Policy Press, 13 de fevereiro de 2024: https://www.techpolicy.press/what-do-we-mean-when-we-say-artificial-general-intelligence, citando Borhane Blili-Hamelin, Leif Hancox-Li, and Andrew Smart, “Unsocial Intelligence: An Investigation of the Assumptions of IAG Discourse,” arXiv, (2024), arXiv:2401.13142. Back
- Ver Klein, “The Government Knows A.G.I. Is Coming”; Jakob Nielsen, “AI Hallucinations on the Decline,” Jakob Nielsen on UX (blog), 13 de fevereiro de 2025: https://jakobnielsenphd.substack.com/p/ai-hallucinations; e Josh Tyrangiel, “Sam Altman on ChatGPT’s First Two Years, Elon Musk and AI Under Trump,” Bloomberg, 5 de Janeiro de 2025, https://www.bloomberg.com/features/2025-sam-altman-interview. Back
- Lakshmi Varanasi, “Here’s How Far We Are from IAG, According to the People Developing It,” Business Insider, 9 de novembro de 2024, https://www.businessinsider.com/IAG-predictions-sam-altman-dario-amodei-geoffrey-hinton-demis-hassabis-2024-11. Back
- Ver Sayash Kapoor and Arvind Narayanan, “IAG Is Not a Milestone,” AI Snake Oil, 1 de maio de 2025, https://www.aisnakeoil.com/p/IAG-is-not-a-milestone. Back
- AAAI, “AAAI 2025 Presidential Panel.” Back
- Benji Edwards, “Elon Musk: AI Will Be Smarter than Any Human Around the End of Next Year,” Ars Technica, 9 de abril de 2024: https://arstechnica.com/information-technology/2024/04/elon-musk-ai-will-be-smarter-than-any-human-around-the-end-of-next-year (pretendendo que a capacidade da IA cresce multiplicada por um factor 10 em cada ano senão mesmo por um fator 6 em 9 meses ). Back
- Borhane Blili-Hamelin et al.,“Stop Treating ‘IAG’ as the North-Star Goal of AI Research,” arXiv (2025), arXiv:2502.03689. Back
- Center for AI Safety and Scale AI, “Humanity’s Last Exam,” accessed April 30, 2025, https://IAG.safe.ai. Back
- Epoch AI, “FrontierMath,” com acesso em 30 de abril de 2025, https://epoch.ai/frontiermath. Back
- Cf. a afirmaação de Satya Nadella’s “O verdadeiro ponto de comparação é o mundo a crescer 10%. .” Victor Tangermann, “Microsoft CEO Admits That AI Is Generating Basically No Value,” Futurism, 22 de fevereiro de 2025. Back
- Thomas Wolf, “The Einstein AI Model,” blog, 25 de fevereiro de 2025, https://thomwolf.io/blog/scientific-ai.html. Back
- Weidinger, Raji, et al., “Toward an Evaluation Science for Generative AI Systems,” arXiv, 13 de março de 2025. Back
- Prithvi Iyer, “Transcripto : US Lawmakers Probe AI’s Role in Energy and Climate,” Tech Policy, 11 de abril de 2025 , https://www.techpolicy.press/transcript-us-lawmakers-probe-ais-role-in-energy-and-climate. Back
- Ver Eve Darian-Smith, “The Challenge of Political Will, Global Democracy and Environmentalism,” Environmental Policy and Law 54, no. 2–3 (2024): 117–126, https://doi.org/10.3233/EPL-239023; Alejandro de la Garza, “We Have the Technology to Solve Climate Change. What We Need Is Political Will,” Time, 7 de abril de 2022 , https://time.com/6165094/ipcc-climate-action-political-will. Back
- Klein, “The Government Knows A.G.I. Is Coming.” Back
- Meredith Whittaker, “The Steep Cost of Capture,” Interactions 28, no. 6 (2021): 50–55, https://doi.org/10.1145/3488666. Back
- Miles Brundage (@Miles_Brundage), “Per Standard AI Scaling Laws, a 2x Advantage in Compute Does Not Yield a 2x Advantage in Capabilities,” X, March 6, 2025, https://x.com/miles_brundage/status/1897568753178865900. Back
- Amodei, “Machines of Loving Grace,” citing Rich Sutton, “The Bitter Lesson,” Incomplete Ideas, March 13, 2019, https://www.cs.utexas.edu/~eunsol/courses/data/bitter_lesson.pdf. Back
- Emma Salisbury, “A Cautionary Tale on Ambitious Feats of AI: The Strategic Computing Program,” War on the Rocks, May 22, 2020, https://warontherocks.com/2020/05/cautionary-tale-on-ambitious-feats-of-ai-the-strategic-computing-program. Back
- Alvin Wang Graylin and Paul Triolo, “There Can Be No Winners in a US-China AI Arms Race,” MIT Technology Review, January 21, 2025, https://www.technologyreview.com/2025/01/21/1110269/there-can-be-no-winners-in-a-us-china-ai-arms-race. Back
- Evgeny Morozov, To Save Everything, Click Here (PublicAffairs, 2014). Back
- Num revelador exemplo, os investigadores publicaram um artigo na Nature alegando a descoberta de mais de quarenta novos materiais usando um laboratório autónomo orientado por IA. Pouco depois, dois químicos de materiais criticaram o artigo por não reconhecer erros sistemáticos com a descoberta não supervisionada de materiais. Ver Julia Robinson, “New Analysis Raises Doubts Over Autonomous Lab’s Materials ‘Discoveries’,” Royal Society of Chemistry, January 16, 2024, https://www.chemistryworld.com/news/new-analysis-raises-doubts-over-autonomous-labs-materials-discoveries/4018791.article; and Robert Palgrave (@Robert_Palgrave), “Este artigo emocionante mostra o design de materiais por IA, síntese robótica. 10s de novos compostos em 17 dias. Mas eles fizeram? Este documento apresenta problemas muito graves na caracterização dos materiais. Na minha opinião, nunca deveria ter chegado perto da publicação. Aguente firme vamos dar uma olhada,” X, November 30, 2023, https://x.com/Robert_Palgrave/status/1730358675523424344. Back
- Samantha M. Kelly, “Elon Musk Says AI Will Take All Our Jobs,” CNN, May 23, 2024, https://www.cnn.com/2024/05/23/tech/elon-musk-ai-your-job/index.html. Back
Agradecimentos
Com apoio à investigação de Mohammed Ali, Yasmine Chokrane, Madeline Kim, Tekendra Parmar, Tanya Raja, and Boxi Wu.
Especial agradecimento a Rhiana Gunn-Wright pelos seus comentários e contribuição editorial.
Gestão do projecto por Ellen Schwartz.
Revisão de texto de Caren Litherland.
Desenho por Partner & Partners.
Contribuições e comentários de:
- Annette Bernhardt, UC Berkeley Labor Center
- Abeba Birhane, Artificial Intelligence Accountability Lab, Trinity College Dublin
- Brian Chen, Data & Society
- Jane Chung, Justice Speaks
- Stefanie Coyle, New York Civil Liberties Union
- Andrea Dehlendorf, AI Now
- Kevin DeLiban, TechTonic Justice
- Becca Deutsch, Amazon Employees for Climate Justice
- Alix Dunn, The Maybe
- Alli Finn, AI Now
- Timnit Gebru, Distributed AI Research Center
- Ryan Gerety, Athena Coalition
- Lisa Gilbert, Public Citizen
- Sam Gordon, Tech Equity Collaborative
- Janet Haven, Data & Society
- Nidhi Hegde, American Economic Liberties Project
- Ben Inskeep, Citizen Action Coalition of Indiana
- Taylor Jo Isenberg, Economic Security Project
- Heidy Khlaaf, AI Now
- Stephen Lerner, Action Center for Race and the Economy – Bargaining for the Common Good
- Barry Lynn, Open Markets Institute
- Varoon Mathur, Duke Institute for Health Innovation,
Duke Health - Jill McArdle, Beyond Fossil Fuels
- Michelle Meagher, SOMO
- Brian Merchant, Independent Journalist
- Erie Meyer, Georgetown University
- Sarah Miller, American Economic Liberties Project
- Stacy Mitchell, Institute for Local Self-Reliance
- Arvind Narayanan, Center for Information Technology Policy, Princeton University
- Chris Nielsen, National Nurses United
- Teri Olle, Economic Security Project
- Britt Paris, Rutgers University
- Tekendra Parmar, Investigative Journalist
- Reshma Ramachandran, Yale School of Medicine
- Steven Renderos, MediaJustice
- Rashida Richardson, Worcester Polytechnic Institute
& Northeastern University - Hilary Ronen, Local Progress
- Leevi Saari, AI Now
- Hannah Sassaman, People’s Tech Project
- Matt Scherer, Center for Democracy and Technology
- Paromita Shah, Just Futures Law
- Ganesh Sitaraman, Vanderbilt University
- Andrew Strait, UK AI Security Institute
- Kasia Tarczynska, Good Jobs First
- Jim Thomas, Scanthehorizon.org
- Max Von Thun, Open Markets Institute
- Jai Vipra, Cornell University
- Robert Weissman, Public Citizen
- Meredith Whittaker, Signal
- Savannah Wilson, Clean Virginia
- Boxi Wu, Oxford University
As autoras:
Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.
Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.
Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.



